Следвайте Гласове в ТелеграмКолко застрашени са човешките права от изкуствения интелект?

...
Следвайте Гласове в ТелеграмКолко застрашени са човешките права от изкуствения интелект?
Коментари Харесай

Изкуственият интелект може да е новата атомна бомба

Следвайте " Гласове " в Телеграм

Колко застрашени са човешките права от изкуствения разсъдък? Ще повтори ли човечеството грешките със обществените мрежи? Има ли сфери от живота, в които изкуственият разсъдък (ИИ, AI от английски) не би трябвало да бъде допускан? Има ли заплаха ИИ да ни завладее и по какъв начин да бъде открита точната му регулация?

Това са въпроси, които все по-често ще си задаваме, до момента в който ИИ навлиза все по-дълбоко в живота ни.

В момента Европейският съюз работи по първата си наредба на ИИ. Законът за ИИ би трябвало да го контролира въз основа на способността му да предизвиква щета.

Преди година редица организации от целия свят, в това число Българският център за нестопанско право, се обърнаха към европейските институции със мнение за пропуските в първичния вид на регулацията. Те да вземем за пример упорстваха да отпадне изключението от закона за системите за ИИ, пуснати на пазара, въведени в употреба или употребявани за задачите на " националната сигурност ". Това обаче не се случи. В началото на декември след договаряния, които продължиха повече от денонощие, политиците на Европейски Съюз откриха съглашение за рамката на закона.

Законът за ИИ включва лист със неразрешени приложения, които са недопустим риск, като манипулативни техники, системи, употребяващи уязвимости, и обществено оценяване. Евродепутатите прибавиха бази данни, основани на групово заличаване на изображения на лица като Clearview AI. Също по този начин ще има

възбрана за разпознаването на страсти на работното място

и в просветителните институции, с предизвестие от съображения за сигурност, предопределени да разпознават, в случай че да вземем за пример водач заспи.

Беше въведена възбрана на полицейски програмен продукт за оценка на риска на обещано лице за осъществяване на бъдещи закононарушения въз основа на персоналните му черти.

По гледище на европейските държавни управления Народното събрание анулира възбраната за потребление на отдалечена биометрична идентификация в действително време в подмяна на някои тесни изключения от правоприлагащите органи - за попречване на терористични офанзиви или локализиране на жертви или обвинени в авансово избран лист с тежки закононарушения.

Последващото потребление на тази технология ще има сходен режим, само че с по-малко строги условия. Евродепутатите настояха тези изключения да се ползват единствено когато са строго нужни въз основа на националното законодателство и авансово позволение от самостоятелен орган. Комисията би трябвало да следи евентуалните злоупотреби.

Депутатите настояха, че възбраните не би трябвало да се ползват единствено за системи, употребявани в границите на Съюза, само че също по този начин да попречат на основаните в Европейски Съюз компании да продават тези неразрешени приложения в чужбина. Тази възбрана за експорт обаче не беше непокътната, защото беше счетено, че няма задоволително правно съображение

Регламентът за ИИ включва лист със случаи на приложимост, за които се счита, че са изложени на

забележителен риск да навредят на сигурността и главните права

на хората. Такива области са обучение, претовареност, сериозна инфраструктура, публични услуги, правоприлагане, граничен надзор и правосъдие.

Административните санкции се дефинират като минимална сума или % от годишния световен оборот на компанията, в случай че последният е по-висок.

За най-тежките нарушавания на неразрешените приложения санкциите могат да доближат до 7% или 35 милиона евро, 3% или 15 милиона евро за нарушавания на отговорностите на доставчиците на системи и модели и 1,5% за непредоставяне на точна информация.

" Както нормално, технологията изпреварва правната регулация и има има опасности ", разяснява пред " Сега " юрист Екимджиев. Според него обаче рисковете биха били още по-големи, в случай че още преди да сме опознали задоволително добре изкуствения разсъдък, да наложим прекомерно строги рамки, които да лимитират навлизането му в живота.

Адвокатът съпоставя обстановката с навлизането на интернет преди 30 години и големите благоприятни условия, които той даде за преформатиране на разнообразни сфери от живота. ИИ може да засегне сфери от персоналния живот до авторските права. Въпросът е освен юридически, само че и метафизичен, и етичен.

" Регулация ще се откри, само че на правилото на проба-грешка. Правят се опити на равнище европейско право, само че те не могат да са всеобхватни и детайлизирани и по тази причина, когато зародят правозащитни проблеми, те ще бъдат решавани на база на правила на правото и търсене на аналогии в сходни случаи ", счита Екимджиев. По думите му юристите, които не страдат от догматично схващане за правото и са високо ерудирани, това няма да е непреодолимо предизвикателство.

Столетия и хилядолетия

човек е бил обект на агитация, най-често от страна на страните,

откогато съществуват идеологии. Но постоянно някак си е могъл да се опълчи, в случай че има в главата си база, информация, обучение, той не е бил единствено въздържан обект. Сега се получава нещо качествено ново, през мобилните ни устройства ИИ може да построи доста прецизен наш профил през информацията какво четем, къде се движим, какво си купуваме. Това профилиране може да оформи политически и електорален профил.

Много е евентуално вашият мобилен телефон да знае преди вас, в случай че имате нетрадиционни полови желания, цитира Екимджиев Ювал Харари ( " 21 урока за 21 век " ).

Юристът показва още, че до избора на Доналд Тръмп за президент на Съединени американски щати, както и до Брекзит се е стигнало тъкмо вследствие на култивиране на такива данни от съответните политически сили. От тази позиция е извънредно значимо да не се основават ненужни бюрократични пречки за развиването на ИИ, който може да е извънредно потребен. " Но би трябвало да бъдем доста деликатни, с цел да не стартира ИИ да господства над естествения, с цел да не изпуснем положителния дух от бутилката ", споделя Екимджиев. Той съпостави ИИ с атомната сила - може да се употребява за положително, само че може да бъде и разрушителна.

Друг правозащитник - юрист Александър Кашъмов, признава, че по тематиката за ИИ е закостенял. Той споделя, че потреблението на новите софтуерни благоприятни условия постоянно минава под знака на възстановяване на икономическото състояние на хората. Но в случай че позволим с това да се лимитират права, в действителност

работим срещу индивида и цивилизацията

Може да ограничим облагата. Но е значимо хората да са свободни и да бъдат оценени заслужено, показва той.

И дава за образец оценките, които се вършат сега най-вече в областта на заемите - пускат профила на индивида в системата и тя " изплюва " дали е благонадежден или не. А постоянно, когато се вършат такива оценки, хората са изложени на риск. " Всеки може да се досети какъв брой съществени стават нещата, в случай че се надигнем през съд, който се ръководи от изкуствен интелект ", споделя Кашъмов и добавя, че мощно се надява, че човечеството няма да стигне дотам на оглупяване. " Правораздаването би трябвало да е сфера, в която ИИ да навлезе най-после или въобще да не навлиза ", счита юристът.

Той е уверен, че би трябвало да се направи оценка на изгодите и рисковете от ИИ от позиция на човешките правата. " Има смисъл да бъдат квалифицирани и степенувани опциите за потребление на ИИ в разнообразни области ", споделя той. И вижда приложението му в медицината, да вземем за пример. Или в образованието, стига да не бъде оставен да е единственият преподавател.

Най-големият проблем е, че

ИИ не носи отговорност за дейностите си.

Това е, което отличава човешкото общество. 

" Където се вземат поради повече фактори, където има потребност от многофакторно мислене, там би трябвало да оставим за стопанин индивида ", уверен е Кашъмов. Според него регулациите на ИИ би трябвало да следват тъкмо този принцип.

В момента, съгласно него, първи проблясъци на по-сериозна регулация има в регламента за отбрана на персоналните данни (GDPR). Администраторът на персонални данни е задължен да осведоми субекта, в случай че той бива оценен от ИИ. " В подобен случай би трябвало да имаме права и опция да спорен решението пред човешка мисъл ", изяснява Кашъмов.

" Правото да знаеш, че ИИ е взел решението за теб ще бъде от значително значение, с цел да се противопоставим на някаква утопична тирания на машините ", добави той.

Пред подобен нов Голиат, Давид, като еманацията на индивида, би трябвало да има своите шансове.

" Ако на следващия ден всички се окажем пред проблема, че е подкопана концепцията за правдивост в международен мащаб, това ще е доста по-голям проблем от това, че гладът, да вземем за пример, не е спрян толкоз бързо, колкото бихме желали ", заключи Кашъмов.

И различен правист правозащитник - Надя Шабани, която е шеф на Българския център за нестопанско право, също се притеснява, че около преимуществата на ИИ, ни дебнат и старите опасности. Например за маргинализиране и дискриминация на избрани групи. Затова и при регулацията на ИИ би трябвало да се основат гаранции, че тези пороци няма да се мултиплицират.

" Сложното на внедряването му е, че той от една страна основава невероятни преимущества, само че около тях може да се окаже, че нямаме задоволително инспекции дали решенията за нас се вземат независимо или в случай че не сме удовлетворени, дали можем да се оплачем и задоволително бързо да потърсим отбрана ", споделя Шабани.

Със сигурност по-слабите,

необразованите, бедните, другите са по-застрашени да станат жертва

на негативните последствия от потреблението на ИИ. Като цяло те ще имат и по-труден достъп до ресурсите му, което още повече ще задълбочи разликите.

Тя също е на мнение, че има сфери от живота, където ИИ не би трябвало да бъде допускан. Например - правораздаването. Това не значи, че специалността не може да употребява ИИ - да вземем за пример, с цел да обработва огромни бази данни. Съдът обаче се води освен от закона, а и от съвестта си - нещо, което ИИ няма. Колкото до образованието, Шабани счита, че вложенията в тази сфера би трябвало да са ориентирани към това да се образоваме (всички, освен децата) по какъв начин да използваме ИИ и по този начин да ставаме функционално по-грамотни и адаптивни.

" Не се опасявам, че машините ще ни завладяват. Но като цивилен деятел мисля за заканите за правата. Не можем да оставим навлизането на технологиите да се случва на правилото на естествения асортимент. То ще докара до ощетяване на избрани групи и човеци. В модерната страна не е значимо да оцелее всеки един от нас поотделно, а да се грижим един зад различен ", обобщава тя.

Модерният свят е съвременен и поради това, че мислим за отбраната си и си даваме гаранции за общо благополучие. Ако не сложим това като цел, страданията, които имаме в извънтехнологичния свят - дискриминация, ограничение на правата на индивида, ще ги забележим десетократно в цифровия свят. Шабани предизвестява, че не би трябвало да повтаряме грешките със обществените мрежи, тъй като към този момент видяхме по какъв начин посредством тях се развиват политически сюжети.

Тя дава образец по какъв начин и в този момент може да се апелира, в случай че обществените мрежи смъкват даден пост, да вземем за пример. Но макар обжалването, най-после потребителят не получава информация кой е взел решението. Кампанията на БЦНП да вземем за пример за по-голяма бистрота на уеб страницата на Народното събрание е неразрешена от " Мета " с обяснението, че се прави от политически състезател, което не е правилно. Докато политически играчи вършат каквото желаят из Facebook и дезинформират без последствия. 

Затова и Шабани е за прецизната регулация като правата на индивида би трябвало да са и рамката на тази регулация. Решенията на ИИ би трябвало да могат да се апелират пред човек и да могат да се ревизират от човек. 

Инфо: segabg.com

 

 

Източник: glasove.com

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР